14,198 research outputs found

    Analyse d'Images de Documents Anciens: une Approche Texture

    Get PDF
    In this article, we propose a method of characterization of images of old documents based on a texture approach. This characterization is carried out with the help of a multi-resolution study of the textures contained in the images of the document. Thus, by extracting five features linked to the frequencies and to the orientations in the different areas of a page, it is possible to extract and compare elements of high semantic level without expressing any hypothesis about the physical or logical structure of the analysed documents. Experimentations demonstrate the performance of our propositions and the advances that they represent in terms of characterization of content of a deeply heterogeneous corpus.Dans cet article, nous proposons une méthode de caractérisation d'images d'ouvrages anciens basée sur une approche texture. Cette caractérisation est réalisée à l'aide d'une étude multirésolution des textures contenues dans les images de documents. Ainsi, en extrayant cinq indices liés aux fréquences et aux orientations dans les différentes parties d'une page, il est possible d'extraire et de comparer des éléments de haut niveau sémantique sans émettre d'hypothèses sur la structure physique ou logique des documents analysés. Des expérimentations montrent la faisabilité de la réalisation d'outils d'aide à la navigation ou d'aide à l'indexation. Au travers de ces expérimentations, nous mettrons en avant la pertinence de ces indices et les avancées qu'ils représentent en terme de caractérisation de contenu d'un corpus fortement hétérogène

    Analyse d'images de documents anciens : Catégorisation de contenus par approche texture

    Get PDF
    Nous proposons une caractérisation du contenu des ouvrages anciens basée sur une approche texture non paramétrique. Cette démarche se veut générique et adaptable à tout type d'ouvrages en s'appuyant sur l'homogénéité des textures que l'on retrouve dans un ouvrage. En appliquant à plusieurs résolutions 5 algorithmes d'extractions de textures il est possible de caractériser le contenu des pages d'un ouvrage. Cette méthode est appliquée sur des pages d'ouvrages anciens du 16ème siècle

    Indexation visuelle et recherche d\u27images sur le web : enjeux et problèmes

    Get PDF
    Si le texte reste très présent sur le web, ce sont désormais des documents multimédia qui s\u27y échangent majoritairement. Comment de tels documents peuvent-ils être cherchés, retrouvés sur la toile dont le système d’indexation et d’organisation est voué au texte ? Comment indexer des documents visuels, qu’est-ce qui est indexable au sein d’images ? C’est ce que ce mémoire se propose d’étudier en se focalisant sur l’indexation des images fixes à travers l’analyse de moteurs de recherche indexant des ressources visuelles, et de plateformes de stockage et de partage d’images. Ce sont ensuite les avantages et les limites de la folksonomie qui sont analysés, puis ceux du géotagging comme nouvelle forme d’indexation, de gestion documentaire et de navigation. Enfin, dans une dernière partie, l’auteure revient sur les présupposés techniques des systèmes d’indexation et de recherche d’images par le contenu et nous livre une analyse des enjeux documentaires, économiques et sociaux de ces procédés

    Utilisation de la couleur pour l'extraction de tableaux dans des images de documents

    Get PDF
    International audienceTables are complex elements that can disturb the automatic analysis of the structure of an image of a document. In this article, we present a method based on the alternation of the color of lines to extract color tables that are not materialized by physical rulings. Experimental results, obtained on a dataset of document images with various layouts, enable to validate the interest of this approach. MOTS-CLÉS : Analyse d'images de documents, extraction de tableaux, détection de couleurs dominantes, segmentation d'images, croissance de régions.Les tableaux sont des éléments complexes qui peuvent perturber l'analyse automatique de la structure d'une image de document. Dans cet article, nous présentons une méthode fondée sur l'alternance de couleurs de lignes pour extraire des tableaux colorés à bordures non matérialisées. Les résultats expérimentaux obtenus à partir d'une base d'images de documents à mise en page variée, permettent de valider l'intérêt de cette approche

    Analyse avec le logiciel ImageJ d'un lot d'images en microscopie par immunofluorecence de cellules de fibroblastes irradiées en X à l'E.S.R.F.

    Get PDF
    Le problème de radiosensibilité individuelle est plus d'actualité que jamais face à l'apparition d'une diversification des types de faisceaux et notamment l'apparition des faisceaux de particules lourdes (hadronthérapie par ions légers tels les ions carbone) pour le traitement de tumeurs cancéreuses radio-résistantes aux traitements classiques par photons. C'est dans ce cadre que le programme de recherche expérimentale ROSIRIS (RadiobiOlogie des Systèmes Intégrés pour l'optimisation des traitements utilisant des rayonnements ionisants et évaluation du RISque associé) a été initié par l'IRSN et l'INSERM. Un des objectifs de ce programme scientifique est de corréler les observables caractérisant les événements biologiques précoces aux événements physiques résultant des dépôts d'énergie des rayonnements ionisants dans les cellules. L'originalité de l'approche réside dans l'utilisation des techniques les plus récentes d'identification des cassures double-brin de l'ADN. La méthode choisie pour l'étude des cassures doubles brins est l'observation des foci H2AX en microscopie par immunofluorescence. L'immunofluorescence avec des anticorps spécifiques contre les formes phosphorylées de l'histone H2AX (gamma -H2AX) permet en effet de mettre en évidence les cassures double-brin (DSB) sous forme de spots fluorescents appelés foci. Suivant la nature et l'énergie des particules, le nombre, la taille, l'intensité lumineuse et la répartition spatiale des foci gamma H2AX est susceptible de changer. Le projet ROSIRIS a pour objectif de constituer des plateformes d'irradiation, ainsi qu'une plateforme de traitement et des analyses des images cellulaires, basée sur l'utilisation d'un microscope automatisée. Cette plateforme devrait permettre de traiter une grande quantité d'images et donc de constituer une base de données significatives permettant de tester les observables biologiques en fonctions des conditions d'irradiation. Parallèlement à ce dispositif expérimental d'acquisition d'image, il sera nécessaire de mettre au point un logiciel de traitement et d'analyse le plus indépendant possible de l'opérateur permettant une analyse automatique des données. Cette note décrit les résultats d'une première approche de ce domaine, destiné à en préciser les difficultés et les défis pour obtenir et réaliser une telle plateforme d'analyse d'image

    Segmentation d'Images solaires en ExtrĂŞme Ultraviolet par une Approche Classification floue Multispectrale

    Get PDF
    L'étude de la variabilité de la couronne solaire et le suivi de régions caractéristiques à sa surface (régions actives, trous coronaux) sont d'une importance capitale en astrophysique et pour le développement de la météorologie de l'espace. Dans ce cadre, nous proposons un algorithme de segmentation multispectrale d'images du Soleil acquises en extrême ultraviolet, utilisant un algorithme de classification flou spatialement contraint. L'utilisation de la logique floue permet de prendre en compte les imprécisions et les incertitudes inhérentes à la définition des différentes régions d'intérêt dans l'image. La méthode est appliquée sur des images prises par le téléscope EIT du satellite SoHO, depuis janvier 1997 jusque mai 2005, couvrant ainsi presque l'intégralité d'un cycle solaire. Les résultats en terme de caractérisation géométrique et radiométrique des régions actives et des trous coronaux sont en accord avec d'autres observations menées par ailleurs. La méthode met de plus en évidence des périodes dans la série temporelle étudiée, reliées à des phénomènes de physique solaire connus

    Exploration visuelle et interactive d'une large collection d'images en libre accès

    Get PDF
    A la 15ème Conférence Internationale sur l'Extraction et la Gestion des Connaissances (EGC) - Atelier VIFCet article décrit l'approche et les résultats de travaux préliminaires sur l'exploration visuelle et interactive d'une large collection d'images en libre accès (Open Access images). Cette exploration s'appuie sur des descripteurs vi-suels et structure les images dans un graphe de proximité de manière incrémen-tale, afin de pouvoir traiter de grandes collections d'images. L'approche utilisée consiste à : (i) collecter des images et des métadonnées, (ii) extraire des des-cripteurs, (iii) structurer des données dans le graphe et (iv) visualiser le graphe obtenu à l'aide d'algorithmes existants de dessin de graphes

    Caractérisation du comportement anisotrope de tôles d'aluminium

    No full text
    National audienceDeux méthodes de caractérisation du comportement anisotrope de tôles sont comparées. Les coefficients de Lankford de tumé : ôles en alliage d'aluminium-magnésium sont tout d'abord déterminés via des essais de traction à température ambiante. Un système de reconnaissance automatique de motifs aléatoires est utilisé pour analyser ces essais en termes de comportement mécanique et pour identifier les coefficients d'anisotropie. En parallèle, des essais d'emboutissage de type Nakazima ont été réalisés, puis analysés à l'aide d'un module d'analyse inverse. Ce modèle s'appuie sur une méthode d'optimisation automatique couplée à un logiciel éléments finis tridimensionnel. Le comportement anisotrope des tôles d'aluminium est modélisé en utilisant un critère de Hill. Les mesures de champs de déformation obtenues avec le système de corrélation d'images sont utilisées pour identifier les paramètres du critère de Hill. Les coefficients de Lankford ainsi déterminés sont comparés à ceux issus des essais de traction

    Application de la méthode LSPIV pour la mesure de champs de vitesse et de débits de crue sur modèle réduit et en rivière

    Get PDF
    International audienceLSPIV technique enables the measurement of surface flow velocities using image sequence analysis. EDF and Irstea partnership made possible the development of Fudaa‑LSPIV freeware by DeltaCAD Company. Two software applications at flume and field scales are detailed: (i) bed shear stresses were calculated owing to LSPIV velocities, water depth and bathymetry for a physical model of the Old Rhine; (ii) the software was used to optimize the calculation parameters of LSPIV flood discharge measurement stations in Mediterranean rivers.La technique LSPIV (Large Scale Particle Image Velocimetry) permet de mesurer les vitesses de surface d'un écoulement par analyse de séquence d'images. Pour faciliter l'application opérationnelle de la méthode, un logiciel, Fudaa-LSPIV, a été développé par la société DeltaCAD dans le cadre d'une collaboration entre EDF et Irstea. Deux applications en laboratoire et en rivière sont présentées : (i) couplée avec des mesures de hauteur d'eau et de bathymétries, la LSPIV a permis d'estimer des paramètres de Shields sur le modèle physique à fond mobile du Vieux-Rhin ; (ii) le logiciel a été utilisé pour procéder à des analyses de sensibilité pour paramétrer ainsi au mieux les stations LSPIV de mesure de débit en crue de rivières cévenoles

    Une nouvelle méthode de classification monoclasse à base de représentation symbolique : Application à la classification de documents

    Get PDF
    National audienceConstruire un classificateur obtenant de bons résultats tout en utilisant un faible nombre d'exemples d'apprentissage est un besoin récurrent dans le domaine de la classification d'images de documents, et en particulier pour l'entreprise pour laquelle cette étude a été réalisée. Dans ce cas-là, le choix d'utiliser un classificateur monoclasse (nécessitant uniquement des exemples positifs) représente une alternative intéressante. Dans cet article, nous présentons une nouvelle méthode de classification monoclasse basée sur une représentation symbolique. Initialement, un ensemble de caractéristiques est extrait à partir des données de l'ensemble d'apprentissage. Puis, un vecteur d'intervalles issus de ces caractéristiques est construit pour représenter la classe. Chaque intervalle (donnée symbolique) est calculé à partir de la moyenne et de l'écart-type de chaque caractéristique. Pour évaluer le classificateur monoclasse proposé, nous avons utilisé un ensemble de données composé de 544 images de documents. Les expérimentations montrent que le classificateur monoclasse est performant lorsque le nombre d'exemples d'apprentissage est faible (=10). Il est donc utilisable dans un contexte de classification de documents, avec de meilleurs résultats que ceux obtenus par un classificateur k-ppv
    • …
    corecore